검색결과
-
안드로이드 오토 업데이트: 차 안에서 더욱 다양한 즐거움을 만끽하세요!구글은 최근 I/O 2024 행사에서 안드로이드 오토 업데이트를 발표하며 운전 중 오락 경험을 한층 더 풍부하게 만들었다. 새로운 앱, 스크린 캐스팅 기능, 개발자 도구 등이 추가되어 운전자들은 다양한 콘텐츠를 즐길 수 있게 되었다. 새로운 앱으로 더욱 풍성한 오락 폴스타, 볼보, 르노 등 일부 차량에는 맥스(Max), 피코크(Peacock) 등 새로운 엔터테인먼트 앱이 추가된다. 이제 운전자들은 더욱 다양한 영화, 드라마, 스포츠 경기를 즐길 수 있다. 또한, 누구나 아는 인기 게임 앵그리버드도 안드로이드 오토에 추가되어 운전 중에도 재미있는 시간을 보낼 수 있게 되었다. 다만, 안전을 위해 앵그리버드 게임은 주차 시에만 이용 가능하도록 설정되어 있다. 스크린 캐스팅으로 더욱 스마트하게 리비안 등 일부 차량에는 스크린 캐스팅 기능이 추가된다. 이 기능을 통해 운전자들은 스마트폰이나 태블릿에 있는 콘텐츠를 차량 화면에 쉽게 띄울 수 있다. 영화, 드라마, 음악 등을 더욱 큰 화면으로 즐길 수 있는 것은 물론, 가족이나 친구들과 함께 콘텐츠를 공유하는 데에도 유용하다. 스크린 캐스팅 기능은 후속 업데이트를 통해 더 많은 차량 모델에 확대될 예정이다. 개발자 도구 개선으로 더욱 다양한 앱 출시 구글은 새로운 개발자 도구를 출시하여 개발자들이 안드로이드 오토용 앱을 더욱 쉽게 제작할 수 있도록 지원한다. 또한, 기존 모바일 앱을 안드로이드 오토용 앱으로 손쉽게 변환할 수 있도록 돕는 프로그램도 함께 제공한다. 이러한 노력을 통해 앞으로 더욱 다양하고 흥미로운 안드로이드 오토 앱들이 출시될 것으로 기대된다. 안드로이드 오토, 차량 운영 체제의 기준 안드로이드 오토는 현재 2억 대 이상의 차량에서 사용되는 차량 운영 체제의 기준으로 자리매김했다. 지속적인 업데이트와 새로운 기능 추가를 통해 안드로이드 오토는 운전자들에게 더욱 안전하고 편리하며 즐거운 운전 경험을 제공하며 앞으로도 발전해 나갈 것으로 기대된다.
-
구글 맵, 증강현실(AR) 콘텐츠 지원 확대! 싱가포르와 파리에서 먼저 체험 가능구글 I/O 2024 컨퍼런스에서 구글은 구글 맵에 증강현실(AR) 콘텐츠를 지원하는 기능을 공개했다. 이 기능은 먼저 싱가포르와 파리에서 시범 운영되며, 올해 하반기 출시될 예정이다. 사용자는 구글 맵에서 위치를 검색한 후 'AR 체험' 이미지를 탭하고 휴대폰을 들어올리면 AR 콘텐츠를 볼 수 있다. 원격으로 장소를 탐색하는 경우 스트릿뷰에서도 동일한 AR 체험을 제공한다. AR 콘텐츠 체험 후에는 링크 URL이나 QR 코드를 통해 SNS에 공유할 수 있다. 싱가포르에서는 차이나타운, 가든스 바이 더 베이 등 유명 관광지를 탐험하고 현지 음식을 시식하며 용춤을 볼 수 있는 AR 콘텐츠를 제공한다. 파리에서는 1900년 만국박람회 당시 센 강변에 있던 국가관 전경과 에펠탑의 변화 과정을 시각화하는 AR 콘텐츠를 제공한다. 구글은 이번 AR 기능이 삼성과 퀄컴과 협력하여 구축하는 안드로이드 XR 플랫폼의 토대를 마련한다고 밝혔다. XR 플랫폼은 증강현실(AR), 가상현실(VR) 등 다양한 확장현실(XR) 기술을 지원하는 플랫폼이다. 이번 구글 맵 AR 콘텐츠 지원은 현실 세계와 디지털 세계를 융합하여 사용자에게 더욱 풍부한 정보와 경험을 제공할 것으로 기대된다.
-
구글, 안드로이드에 핸즈프리 '마우스' 출시! 머리와 얼굴 움직임으로 컴퓨터 조작 가능구글의 프로젝트 게임페이스(Project Gameface) 핸즈프리 '마우스'가 안드로이드에서 출시됐다. 마침내 안드로이드에 출시 지난해 구글 I/O 개발자 컨퍼런스에서 구글은 머리와 얼굴 움직임으로 컴퓨터 커서를 조작할 수 있는 핸즈프리 게임용 '마우스' 프로젝트 게임페이스를 선보였다. 올해 구글은 프로젝트 게임페이스의 더 많은 코드를 오픈소스화하여 개발자들이 이 기술을 사용하는 안드로이드 앱을 개발할 수 있도록 했다. 머리와 얼굴 움직임으로 컴퓨터 조작 가능 이 도구는 휴대폰의 전면 카메라를 사용하여 얼굴 표정과 머리 움직임을 추적하여 가상 커서를 조작한다. 사용자는 화면에 있는 항목을 선택하기 위해 미소를 짓거나 안드로이드 휴대폰에서 홈 화면으로 돌아가려면 왼쪽 눈썹을 올릴 수 있다. 또한 사용자는 각 표정에 대한 임계값이나 제스처 크기를 설정하여 특정 마우스 작업을 트리거하기 위해 표정이 얼마나 두드러져야 하는지 제어할 수 있다. 장애인을 위한 혁신적인 도구 구글은 근육 위축증으로 근육이 약해진 게임 스트리머 Lance Carr와 함께 프로젝트 게임페이스를 개발했다. Carr는 집 화재로 집과 함께 값비싼 장비를 잃기 전까지 헤드 트래킹 마우스를 사용하여 게임을 했다. 프로젝트 게임페이스의 초기 버전은 게임에 중점을 두고 웹캠을 사용하여 얼굴 표정을 감지했지만, 구글은 처음부터 이 기술에 많은 다른 잠재적 용도가 있다는 것을 알고 있었다. 이 도구의 안드로이드 출시를 위해 구글은 장애인을 지원하는 인도 조직 Incluzza와 협력했다. 이 파트너십을 통해 구글은 프로젝트 게임페이스가 장애인이 학업을 더욱 발전시키고 친구 및 가족과 더 쉽게 소통하고 온라인으로 일자리를 찾는 데 어떻게 도움이 될 수 있는지 알게 되었다. 구글은 GitHub에서 프로젝트의 오픈 소스 코드를 출시했으며 더 많은 개발자가 "새로운 경험을 구축하는 데 활용하기로 결정하기를 바란다"고 말했다.
-
무료로 맥에서 윈도우 11 사용하기: VM웨어 퓨전 프로 13 무료화맥 사용자라면 이제 무료 소프트웨어를 활용하여 맥에서 윈도우 11을 실행할 수 있다. 기업 가상화 소프트웨어 개발업체 VM웨어(VMware)는 5월 15일 자사의 상용 제품 ‘VM웨어 퓨전 프로 13’(VMware Fusion Pro 13)을 개인 사용에 한해 무료로 제공하기 시작했다. 과거에는 윈도우를 맥에서 사용하기 위해서는 유료 부트캠프(Boot Camp) 기능이나 Parallels Desktop, VM웨어 퓨전 프로 등의 가상화 소프트웨어를 구매해야 했다. 하지만 이제 VM웨어 퓨션 프로 13을 무료로 다운 받아 맥에서 윈도우 11을 가상 머신(Virtual Machine)으로 실행할 수 있게 되었다. VM웨어 퓨전 프로 13 무료 개방, 개인 사용에 한함 VM웨어는 기존에는 윈도우, 리눅스 등 다양한 운영체제를 맥에서 가상으로 실행할 수 있도록 하는 ‘VM웨어 퓨전 플레이어’(VMware Fusion Player)와 기능이 더 강력한 ‘VM웨어 퓨전 프로’(VM웨어 퓨전 프로)를 제공했다. 하지만 퓨전 플레이어는 무료였지만, 퓨전 프로는 유료 소프트웨어였다. 최근 VM웨어는 퓨전 프로 13을 개인 사용에 한해 무료로 제공하기 시작했다. 이는 기업 사용을 위한 유료 라이선스와는 별개로 개인 사용자들이 윈도우 11과 같은 다른 운영체제를 쉽게 사용할 수 있도록 하는 전략으로 보인다. 윈도우 11 가상 머신 설치 안내 맥에서 VM웨어 퓨전 프로 13을 사용하여 윈도우 11을 가상 머신으로 실행하는 방법은 다음과 같다. - VM웨어 퓨전 프로 13 다운로드: 먼저 VM웨어 지원 웹사이트(Home - Support Portal - Broadcom support portal)로 이동한다. 오른쪽 상단 모서리 등록(Register)을 누른다. 등록 후 로그인하여 "Fusion Pro 13 Download"를 탭한다. 개인용 VM웨어 퓨전 프로 13을 탭할 수 있는 다른 페이지로 이동한다. VM웨어 퓨전 프로 13을 다운로드한다. - 설치 및 실행: 다운로드한 설치 프로그램을 실행하여 VM웨어 퓨전 프로 13을 설치한다. 설치가 완료되면 프로그램을 실행한다. - 새 가상 머신 만들기: VM웨어 퓨전 프로 메인 화면에서 ‘새 가상 머신 만들기’(Create a new virtual machine) 버튼을 클릭한다. - 윈도우 11 설치 미디어 선택: ‘설치 미디어 선택’(Installer disc or image) 항목에서 윈도우 11 설치 파일(.iso 이미지)을 선택한다. - 가상 머신 설정: 가상 머신에 할당할 CPU 코어 수, 메모리 용량, 저장 공간 등을 원하는 대로 설정한다. - 윈도우 11 설치 시작: 설정을 완료한 후 ‘만들기’(Create) 버튼을 클릭하여 윈도우 11 설치를 시작한다. 윈도우 11 설치 과정은 일반적인 윈도우 설치와 거의 동일하다. 설치 마법사의 안내에 따라 윈도우 11 설치를 완료하면 맥에서 윈도우 11을 가상 머신으로 사용할 수 있다. 무료 윈도우 11 사용의 장단점 맥에서 윈도우 11을 무료로 사용하는 것은 몇 가지 장점이 있다. 먼저, 맥 사용자들이 윈도우 프로그램이나 게임을 실행할 수 있게 된다는 점이다. 또한, 윈도우에만 호환되는 특정 소프트웨어를 사용해야 하는 경우에도 유용하다. 하지만 무료 윈도우 11 사용에는 몇 가지 단점도 있다. 먼저, 맥의 하드웨어 성능에 따라 가상 머신의 성능이 저하될 수 있다. 또한, 무료 라이선스에는 기술 지원이 제공되지 않기 때문에 문제 발생 시 스스로 해결해야 한다. 전체적으로, VM웨어 퓨전 프로 13의 무료화는 맥 사용자들에게 윈도우 11을 사용할 수 있는 새로운 기회를 제공한다. 하지만 무료 라이선스의 제한 사항과 가상 머신의 성능 한계를 고려해야 한다.
-
구글의 혁신 영상 제작 도구 Veo 베타 테스트 참여 방법구글은 텍스트 프롬프트를 이용하여 고품질 영상을 제작하는 인공지능(AI) 기반 비디오 제작 도구'베오(Veo)'의 베타 테스터를 모집한다고 14일(현지시간) 발표했다. 구글 I/O 2024에서 처음 공개된 베오는 사용자가 입력한 텍스트 설명만으로 1080p 해상도의 영상을 제작할 수 있다. 이 영상은 다양한 영화적 스타일과 시각적 효과를 적용할 수 있으며, 최대 길이는 1분 이상이다. 베오 베타 테스트 참여 방법 현재 베오는 베타 테스트 단계에 있으며, 아직 모든 사용자에게 개방되지 않았다. 하지만 베오를 사용해 보고 싶은 사용자들은 구글 랩스([invalid URL removed] 통해 베타 테스트 대기 명단에 가입할 수 있다. 베타 테스트 대기 명단 가입 절차는 간단하다. 구글 랩스 웹사이트(labs.google)에 접속한다. 상단 노란색 위젯에 있는 "대기 명단 참여(Join waitlist)" 버튼을 클릭한다. 가입 양식에 이름, 이메일 주소, 베오에 대한 정보를 처음 어디서 접했는지 등을 입력한다. 양식 작성을 완료하고 제출한다. 구글은 베타 테스트 참여 신청자 전원에게 즉시 베오를 제공하지는 않는다. 하지만 구글은 베타 테스트 프로그램 진행 상황에 따라 적절한 시기에 일부 사용자에게 초대 이메일을 발송할 계획이다. 베오의 활용 방식과 기능 구글은 베오의 구체적인 활용 사례 몇 가지를 예시로 제시했다. -영상 제작 경험이 없는 콘텐츠 크리에이터: 베오를 사용하면 영상 제작 기술이나 전문적인 장비가 없어도 간단하게 영상을 만들 수 있다. -교육 및 학습: 교사들은 베오를 사용하여 학생들이 쉽게 이해할 수 있는 교육용 영상을 제작할 수 있다. -소셜 미디어 콘텐츠 제작: 유튜브 크리에이터나 소셜 미디어 마케터들은 베오를 사용하여 매력적인 콘텐츠를 빠르게 제작할 수 있다. 베오는 아직 초기 개발 단계에 있지만, 텍스트 프롬프트를 기반으로 고품질 영상을 제작하는 기술은 콘텐츠 제작 방식에 혁신을 가져올 수 있다는 기대가 크다. 향후 베오의 기능과 활용 방식은 지속적으로 업데이트될 예정이다. 주의사항 베오는 현재 베타 테스트 단계에 있으며, 모든 사용자에게 개방되어 있지 않다. 구글 랩스를 통해 베타 테스트 대기 명단에 가입하면 베오를 사용해볼 수 있는 기회를 늘릴 수 있다. 구글은 베타 테스트 신청자 전원에게 즉시 베오를 제공하지 않는다. 적절한 시기에 일부 사용자에게만 초대 이메일을 발송할 예정이다.
-
구글, 자연스러운 AI 대화 기능 '제미나이 라이브' 공개지난 1년 동안 구글과 오픈AI는 인공지능 분야에서 치열한 경쟁을 벌여왔지만, 최근에는 가상 비서와의 대화 방식에 대한 관심이 다시 높아지고 있다. AI와 편안하게 대화하기! 제미나이 라이브로 자연스러운 소통 가능 일반적으로 생성형 인공지능 제품은 텍스트 입력 방식으로 출시되고, 이후 이미지 검색 및 기본적인 음성 명령 기능이 추가된다. 구글은 I/O 2024 행사에서 자연스러운 AI 대화를 위한 새로운 모바일 경험인 '제미나이 라이브'를 선보였다. 인터뷰 준비부터 연설 팁까지! 제미나이 라이브와 다양한 대화 가능 구글은 제미나이 라이브를 활용한 몇 가지 잠재적인 활용 사례를 제시했다. 예를 들어, 제미나이 라이브와 대화를 통해 면접 준비를 할 수 있으며, 면접 질문과 관련된 질문을 받을 수도 있다. 또한, 연설을 준비하는 경우 연설 팁을 받을 수도 있다. 제미나이 라이브의 가장 큰 특징은 사용자가 자신의 속도에 맞춰 대화할 수 있으며, 원하는 경우 언제든지 AI의 응답을 방해할 수 있다는 점이다. 이상적인 목표는 스마트폰 비서 명령이나 생성형 인공지능 질문을 하는 대신, 실제 사람과 대화하는 것과 같은 자연스러운 소통 경험을 제공하는 것이다. 실시간 영상 피드백도 가능! 차세대 가상 비서 '프로젝트 아스트라’ I/O 행사에서 구글은 제미나이 라이브의 개념을 더욱 발전시킨 차세대 가상 비서 '프로젝트 아스트라'도 선보였다. 아스트라는 사용자의 카메라 피드를 실시간으로 확인하고 질문에 답변할 수 있다. 아스트라 출시까지는 시간이 걸릴 것으로 예상되지만, 구글은 아스트라의 일부 실시간 영상 기능이 올해 말 제미나이 라이브에 추가될 것이라고 밝혔다. 제미나이 라이브는 향후 몇 달 안에 제미나이 어드밴스드 구독자들에게 제공될 예정이다.
-
구글, AI로 구글 지도 플랫폼 업그레이드… 개발자 편의도 극대화구글은 연례 개발자 행사 I/O 2024에서 자사의 맵 플랫폼 '구글 지도 플랫폼'에 인공지능(AI) 모델 '제미나이'의 기능을 접목한다고 밝혔다. 이번 업그레이드를 통해 개발자들은 제미나이가 제공하는 장소 요약과 상황별 검색 결과를 활용하여 사용자에게 더욱 풍부하고 유용한 정보를 제공할 수 있게 된다. 장소 요약: 제미나이는 구글 지도 3억 명 이상의 사용자들의 리뷰와 평가를 분석하여 장소에 대한 요약 정보를 제공한다. 개발자들은 이 요약 정보를 활용하여 사용자들이 쉽고 빠르게 장소에 대한 정보를 파악할 수 있도록 도울 수 있다. 상황별 검색 결과: 제미나이는 사용자의 검색어와 위치 정보를 기반으로 상황에 맞는 검색 결과를 제공한다. 예를 들어, 사용자가 "가까운 카페"라고 검색하면, 제미나이는 사용자의 현재 위치와 선호도를 고려하여 가장 적합한 카페 목록을 제시한다. 개발자 편의도 향상: 제미나이를 활용하면 개발자들이 직접 장소에 대한 설명을 작성할 필요가 없어져 시간과 노력을 절약할 수 있다. 또한, 상황별 검색 결과를 통해 사용자들에게 더욱 개인화된 경험을 제공할 수 있다. 이번 업그레이드는 구글 지도 플랫폼의 기능을 크게 향상시키고 개발자들의 생산성을 높일 것으로 기대된다.
-
나만의 인공지능 챗봇 만들기, 구글 제미나이 'Gems' 기능 출시구글은 I/O 개발자 컨퍼런스에서 인공지능 챗봇 '제미나이'에 강력한 맞춤형 기능을 추가한다고 발표했다. 'Gems'라는 이름의 이 기능은 사용자가 자신만의 개성과 기능을 가진 '제미나이'를 만들 수 있도록 한다. 헬스, 요리, 코딩, 창작까지! 다재다능한 제미나이 'Gems'를 사용하면 헬스 코치, 요리 조수, 코딩 파트너, 창작 작문 가이드 등 다양한 역할을 수행하는 '제미나이'를 만들 수 있다. 마치 Character.AI에서 좋아하는 캐릭터나 유명인과 대화하거나 심지어 가상의 심리 상담사와 상담하는 것처럼, 'Gems'를 통해 자신만의 '제미나이'를 만들어 다양한 작업을 도와받을 수 있다. 'Gems'는 사용자가 맞춤형 ChatGPT 챗봇을 만들 수 있도록 하는 OpenAI의 'GPT Store'와 유사한 기능이다. 사용법도 간단 'Gems'를 사용하려면 원하는 '제미나이'의 역할과 성격을 알려주면 된다. 예를 들어, 달리기를 좋아한다면 '제미나이'가 달리기 코치가 되어 매일 달리기 계획을 세우고 응원해주도록 설정할 수 있다. 'Gems' 기능은 '제미나이' 어드밴스드 구독자들에게 "곧" 출시될 예정이다. 이제 '제미나이'는 단순한 챗봇 이상으로, 사용자의 개성과 필요에 맞춰진 다재다능한 비서가 될 것으로 기대된다.
-
구글, AI 안경으로 세상을 알아 가는 '프로젝트 아스트라' 공개구글은 I/O 2024 개발자 컨퍼런스에서 '프로젝트 아스트라(Project Astra)'라는 새로운 AI 기능을 공개했다. 이 프로젝트는 스마트폰 카메라와 인공지능을 활용하여 일상 속 문제 해결을 돕는다. 실시간 정보 처리로 일상 도움 프로젝트 아스트라는 뷰파인더를 기반으로 하는 앱 형태이다. 사용자가 카메라를 사무실 주변으로 돌리면서 "소리가 나는 것 알려줘"라고 말하면, 아스트라 AI가 "스피커가 보여요. 소리를 내는 거죠"라고 응답한다. 사용자가 스피커 부분을 가리키면 "저건 트위터라고 해요. 고주파 사운드를 내는 부분이죠"라고 세밀하게 설명해준다. 프로젝트 아스트라는 단순한 물체 인식뿐 아니라 창의적인 질문에도 응답한다. 예를 들어 테이블 위 크레용을 가리키면 "색채로 가득찬 창작을 만들 크레용이군요" 라고 시적인 표현을 답변한다. 기록 정보 활용하여 잊어버린 물건 찾기 더욱 놀라운 점은 프로젝트 아스트라가 시야 밖에 있는 물건도 찾을 수 있다는 것이다. 사용자가 "안경 봤던 곳 기억해?"라고 물으면 "빨간 사과 옆 책상에 있었어요"라고 정확하게 답변한다. 이처럼 아스트라는 실시간 영상과 음성 정보를 처리하는 동시에 기록된 정보를 활용한다. 따라서 시야 밖에 있던 안경도 이전에 본 정보를 바탕으로 위치를 추측할 수 있다. AI 안경 착용 시 시각적 정보 활용 프로젝트 아스트라 영상 후반부는 가상의 AI 안경을 착용한 시점을 보여준다. 안경 카메라가 칠판 다이어그램을 인식하고 "시스템 속도 향상 위해 뭘 추가할 수 있을까?"라는 질문에 "서버와 데이터베이스 사이에 캐시 추가하면 속도 빨라질 수 있어요"라고 답변한다. 사용자가 칠판에 그려진 고양이 그림을 보면서 "이게 뭘 떠올리게 해?"라고 묻자 아스트라는 "슈뢰딩거의 고양이"라고 대답한다. 또한 장난감 호랑이와 골든 리트리버를 가리키면 "이 둘에게 밴드 이름 좀 지어줘"라는 요청에 "황금 줄무늬(Golden Stripes)"라고 답변한다. 프로젝트 아스트라의 기술 데미스 하사비스 구글 딥마인드 CEO는 "프로젝트 아스트라의 에이전트는 연속적으로 비디오 프레임을 인코딩하고, 비디오와 음성 입력을 이벤트 타임라인으로 결합하며, 효율적인 정보 복원을 위해 이를 캐싱하여 빠르게 정보를 처리하도록 설계됐다"고 설명했다. 출시 시기와 향후 전망 프로젝트 아스트라는 아직 초기 단계에 있으며 출시 계획은 명확하지 않다. 하지만 하사비스 CEO는 미래에 이러한 에이전트들이 "휴대폰이나 안경을 통해" 사용될 수 있다고 언급했다. 이 안경이 실제 상품인지 구글 글래스의 후속 제품인지는 아직 알 수 없지만, 하사비스 CEO는 "일부 기능은 올해 하반기 제미나이 앱 등 구글 제품에 적용될 예정"이라고 밝혔다.
-
구글 I/O 2024: 인공지능 돌풍! 제미나이 업그레이드와 혁신 기능 공개올해 구글 I/O 컨퍼런스는 인공지능 관련 발표로 가득 찼다. 예상대로 구글은 자사의 제미나이 인공지능 모델과 워크스페이스, 크롬 등 앱과의 연동 방식에 중점을 두었다. 구글 렌즈 영상 검색 기능 강화 기존 구글 렌즈는 이미지를 기반으로 검색이 가능했지만, 이제는 영상 검색 기능까지 추가되었다. 검색하려는 영상을 촬영하여 질문을 하면 구글 인공지능이 웹에서 관련 답변을 찾아낸다. 더욱 빠르고 강력해진 제미나이1.5 플래시 구글은 새로운 인공지능 모델인 제미나이1.5 플래시(Gemini 1.5 Flash)를 출시했다. 이 새로운 멀티모달 모델은 제미나이1.5 프로와 동등한 성능을 가지지만, "특정 분야, 고빈도, 저지연 작업"에 최적화되어 더 빠른 응답 생성이 가능하다. 또한 구글은 제미나이1.5의 번역, 추론, 코딩 기능을 향상시켰으며, 맥락 창 크기를 100만 토큰에서 200만 토큰으로 늘렸다. 워크스페이스에 제미나이도입 구글은 최신 메인스트림 언어 모델 제미나이1.5 프로를 문서, 스프레드시트, 프레젠테이션, 드라이브, 이메일에 통합했다. 다음 달 유료 구독자들에게 제공되는 이 기능은 워크스페이스 내에서 다목적 기능의 도우미 역할을 할 것이다. 사용자의 드라이브 콘텐츠 어디에서든 정보를 가져와 현재 보고 있는 문서 내용을 바탕으로 이메일을 작성하거나 나중에 답변할 이메일을 알려주는 등의 기능을 수행한다. 일부 초기 테스터들은 이미 이 기능을 사용하고 있으며, 구글은 다음 달 모든 유료 제미나이구독자들에게 제공할 예정이다. 프로젝트 아스트라: 구글의 야심찬 인공지능 비서 프로젝트 아스트라(Project Astra)는 사용자의 기기를 통해 보고 있는 것을 이해하고 기억하며 사용자 대신 작업을 수행하는 모든 기능을 갖춘 가상 비서가 되기 위한 구글의 계획이다. 올해 I/O 컨퍼런스에서 가장 인상적인 데모 중 많은 부분을 지원하는 프로젝트 아스트라는 단순히 대화만 할 수 있는 것이 아니라 실제로 사용자를 대신하여 작업을 수행할 수 있는 진정한 인공지능 에이전트가 되는 것을 목표로 한다. Veo: 영상 제작자 위한 혁신 도구 구글은 텍스트, 이미지, 영상 기반 프롬프트를 기반으로 1080p 영상을 생성할 수 있는 새로운 생성 인공지능 모델인 Veo를 선보였다. 영상은 항공 촬영이나 타임랩스와 같은 다양한 스타일로 제작할 수 있으며, 추가 프롬프트를 통해 미세 조정이 가능하다. 구글은 이미 일부 제작자들에게 Veo를 제공하며 영화에 사용하기 위해 할리우드에도 홍보하고 있다. Gems: 맞춤형 채팅봇 제작 툴 구글은 사용자가 제미니에게 지시를 제공하여 원하는 방식으로 응답하고 특정 분야에 특화된 맞춤형 채팅봇을 만들 수 있는 Gems라는 툴을 출시했다. 예를 들어, 매일 동기 부여와 달리기 계획을 제공하는 긍정적이고 적극적인 달리기 코치가 되도록 설정할 수 있다 (물론 제미나이 고급(Advanced) 구독자만 가능하다). 실시간 음성 대화 기능 향상된 제미나이 Live 새로운 제미나이 Live 기능은 제미니와의 음성 대화를 보다 자연스럽게 만든다. 챗봇의 목소리에 더 많은 개성이 부여되고, 사용자는 중간에 말을 끼거나 스마트폰 카메라를 통해 주변을 보여주면서 실시간 정보를 제공하도록 요청할 수 있다. 또한 제미나이는 Google Calendar, Tasks 및 Keep와의 새로운 통합을 통해 멀티모달 기능을 사용하여 정보를 업데이트하거나 가져올 수 있다. 수학 문제 도우미 서클 투 서치 안드로이드 휴대폰이나 태블릿 사용자는 이제 화면에서 수학 문제를 원으로 둘러싸고 풀이 방법을 얻을 수 있다. 구글 인공지능은 문제를 해결해주지는 않지만 (학생들이 숙제를 속이는 데 도움이 되지 않도록), 문제를 완료하기 쉽도록 단계별로 안내해 줄 것이다. AI 검색 개편된 Google 검색 구글은 이전에 "Search Generative Experience"라고 불렸던 "AI 오버뷰(AI Overviews)"를 미국 모든 사용자에게 제공할 예정이다. 이제 "전문화된" 제미나이 모델은 웹에서 요약된 답변으로 결과 페이지를 디자인하고 채운다 (Perplexity 또는 Arc Search와 같은 AI 검색 도구에서 볼 수 있는 것과 유사). 안드로이드 스캠 방지 기능 구글은 안드로이드 휴대폰이 일반적인 사기꾼 대화 패턴과 같은 위험 신호를 찾아 실시간 경고를 띄워 사기 전화를 피하도록 돕는다고 말했다. 이 기능에 대한 자세한 내용은 올해 말에 발표될 예정이다. AI 질문 응답 기능 강화된 안드로이드 구글은 곧 사용자가 화면에 표시된 영상에 대해 질문을 할 수 있도록 하고, 제미니는 자동 자막을 기반으로 답변할 것이라고 발표했다. 유료 제미나이 고급 사용자의 경우 PDF 파일을 수집하여 정보를 제공할 수도 있다. 이러한 기능과 안드로이드용 제미니의 다른 멀티모달 업데이트는 향후 몇 달에 걸쳐 출시될 예정이다. 크롬 내장 AI 도우미 구글은 데스크톱용 크롬에 제미니의 가벼운 버전인 제미나이 나노를 추가한다고 발표했다. 이 내장된 도우미는 온디바이스 인공지능을 사용하여 사용자가 소셜 미디어 게시물, 제품 리뷰 등을 위한 텍스트를 직접 크롬에서 생성하도록 돕는다. SynthID 인공지능 워터마킹 업그레이드 구글은 SynthID가 할 수 있는 작업을 확장한다고 발표했다. 이제 SynthID는 새로운 Veo 비디오 제작 도구를 사용하여 만든 콘텐츠에 워터마킹을 포함하고 AI 생성 비디오를 감지할 수도 있다. 결론 구글 I/O 2024는 인공지능 기술의 발전을 보여주는 흥미로운 행사였다. 제미나이 모델의 업그레이드, 새로운 제품 및 기능 출시는 향후 몇 년 동안 인공지능 기술의 발전 방향에 큰 영향을 미칠 것으로 예상된다.